Développeur de Logiciels expérimenté // Experienced Software developer
Tu es passionné par les nouvelles technologies, et tu souhaites faire partie d’une équipe de développement logiciel en constante quête d’innovation dans un cadre chaleureux, décontracté et stimulant ?
Nous recherchons un coéquipier comme toi !
Joins-toi à une équipe Agile et ambitieuse qui a la volonté de toujours s’améliorer et de développer des applications innovantes au sein de notre plateforme qui aide les radiodiffuseurs, les podcasters et les services musicaux à maximiser leurs revenus en ligne.
Nous recherchons un coéquipier comme toi !
Joins-toi à une équipe Agile et ambitieuse qui a la volonté de toujours s’améliorer et de développer des applications innovantes au sein de notre plateforme qui aide les radiodiffuseurs, les podcasters et les services musicaux à maximiser leurs revenus en ligne.
Tes responsabilités :
- Contribuer à la conception et au développement de nouvelles fonctionnalités, ainsi qu'à l'amélioration/correction des fonctionnalités existantes.
- Développer et maintenir des pipelines de données robustes et des applications traitant quotidiennement des charges de travail de plusieurs téraoctets.
- Collaborer avec le/la responsable produit et interagir avec les autres équipes produit pour définir des solutions pour l'avenir de l'organisation.
- Contribuer à toutes les activités du cycle de développement applicatif (planification, conception, codage, tests unitaires et d'intégration automatisés, revue de code, documentation, déploiement, exploitation, surveillance et alertes).
- Faire preuve d'ouverture aux idées des autres tout en communiquant avec respect.
- Proposer et contribuer à la mise en œuvre de solutions d'amélioration continue.
- Être un membre engagé, transparent et positif d'une équipe Agile auto-organisée et multidisciplinaire.
- Recommander certains choix technologiques et être capable de les soutenir.
- Participer à une rotation d'astreinte (environ une fois tous les deux mois).
Vous êtes un bon candidat si vous:
- Avez au moins cinq ans d'expérience professionnelle en tant que développeur logiciel, travaillant avec des langages de programmation JVM et/ou Python.
- Avez une expérience pratique des technologies de traitement de flux comme Kafka, Kafka-Streams, etc.
- Avez travaillé avec des technologies Big Data comme Spark, HDFS, Parquet, etc.
- Êtes passionné par les défis complexes liés au traitement de données distribuées.
- Savez écrire et optimiser des requêtes SQL.
- Êtes capable de résoudre les problèmes de manière approfondie, d'analyser les problèmes et de communiquer clairement vos idées.
- Vous parlez français et anglais à un niveau professionnel.
Vous êtes un excellent candidat si vous:
- Avez de l'expérience en traitement de flux et en technologies Big Data, notamment Kafka et Spark.
- Avez une expérience pratique avec des langages de programmation comme Scala, Kotlin et/ou Python.
- Avez déjà optimisé des requêtes et/ou des processus impliquant des jeux de données à l'échelle du téraoctet.
- Avez de l'expérience avec Apache Airflow ou des orchestrateurs de jobs similaires.
Votre connaissance des points suivants est un atout pour nous :
- Vous avez travaillé avec Apache Druid.
- Vous avez travaillé avec Looker ou d'autres outils de BI.
- Vous connaissez des outils comme GitHub Actions, ArgoCD, Grafana, Docker et Kubernetes.
*L’utilisation de l’anglais est nécessaire pour collaborer avec des collègues internationaux, pour accéder à des informations et des ressources et pour communiquer à l’échelle internationale.
********
Are you passionate about new technologies, and would you like to be part of a software development team constantly seeking innovation in a warm, relaxed, and stimulating environment?
We're looking for a teammate like you!
Join an Agile and ambitious team that is driven to always improve and develop innovative applications within our platform that help broadcasters, podcasters and music services maximize their online revenue.
We're looking for a teammate like you!
Join an Agile and ambitious team that is driven to always improve and develop innovative applications within our platform that help broadcasters, podcasters and music services maximize their online revenue.
Your responsibilities:
- Contribute to the design and development of new features and the improvement/correction of existing features.
- Develop and maintain robust data pipelines and applications processing terabyte-scale loads daily.
- Collaborate with the Product Owner and interact with other product teams to define solutions for the future of the organization.
- Contribute to all activities of the application development life-cycle (planning, design, coding, automated unit & integration testing, code review, documentation, deployment, operations, monitoring, and alerting).
- Demonstrate openness to the ideas of others while communicating with respect.
- Propose and help implement continuous improvement solutions.
- Be an engaged, transparent, and positive member of a self-organizing and multidisciplinary Agile team.
- Recommend certain technological choices and be able to support them.
- Participate in an on-call rotation. (Approx. once every two months.)
You are a good candidate if you:
- Have at least five years of professional experience as a software developer, working with JVM programming languages and/or Python.
- Have working experience with stream processing technologies like Kafka, Kafka-Streams, etc.
- Have worked with big data technologies like Spark, HDFS, Parquet, etc.
- Are interested in the complex challenges related to distributed data processing.
- Know how to write and optimize SQL queries.
- Have the ability to thoroughly troubleshoot issues, investigate problems, and clearly communicate your ideas.
- Speak French & English at a professional level.
You are an excellent candidate if you:
- Have experience in both stream processing and big data technologies, including Kafka and Spark.
- Have working experience with programming languages like Scala, Kotlin, and/or Python.
- Have previously optimized queries and/or processes involving terabyte scale datasets.
- Have experience with Apache Airflow or similar jobs orchestrating technologies.
It would be a bonus for us if you :
- Worked with Apache Druid.
- Worked with Looker or other BI tools.
- Know tools like GitHub Actions, ArgoCD, Grafana, Docker, and Kubernetes.